Yiksan0315's Blog

GBM

# Tag:

  • Source/KU_ML2

GBM(Gradient Boosting Machine)

BoostingGradient Descent를 이용하여 최적화하는 방식.

각 단계에서 새로운 학습기가, 이전 학습기의 예전 오류(Residual)을 학습하는 방식이다.

Algorithm

  1. 가장 맨 처음 사용될 base-leaner 를 찾는다.
    1. 어떤 model을 사용하는지에 따라 다르게 찾아진다. ANN이라면 Gradient Descent로, Decision Tree라면 Information Gain이 큰 것으로 찾게 될 것이다.
    2. 상수로 설정하기도 한다.
  2. 까지 반복하면서 아래의 과정을 반복한다.
    1. : 이전의 모델을 learning rate 에 대해 만든다.
    2. 각 데이터 에 대해 를 계산한다. 이는 일종의 negative residual이라고 볼 수 있다. 실제 정답과 예측 값의 차이에 대해, 그 차이가 커지는 방향의 값이므로 Loss를 줄이기 위해 학습해야 할 남은 부분(residual)의 negative라 할 수 있다.
    3. : residual과 예측 값의 Loss를 최소화하는 그러한 를 찾아 새로운 model 로 업데이트 한다.

Prediction

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.